Материалы по тегу: google cloud platform
|
07.11.2025 [14:16], Владимир Мироненко
Google объявила о доступности фирменных ИИ-ускорителей TPU Ironwood и кластеров на их основеGoogle объявила о доступности в ближайшие недели ИИ-ускорителя седьмого поколения TPU v7 Ironwood, специально разработанного для самых требовательных рабочих нагрузок: от обучения крупномасштабных моделей и сложного обучения с подкреплением (RL) до высокопроизводительного ИИ-инференса и обслуживания моделей с малой задержкой. Google отметила, что современные передовые ИИ-модели, включая Gemini, Veo, Imagen от Google и Claude от Anthropic, обучаются и работают на TPU. Многие компании смещают акцент с обучения этих моделей на обеспечение эффективного и отзывчивого взаимодействия с ними. Постоянно меняющаяся архитектура моделей, рост агентных рабочих процессов и практически экспоненциальный рост спроса на вычисления определяют новую эру инференса. В частности, ИИ-агенты, требующие оркестрации и тесной координации между универсальными вычислениями и ускорением машинного обучения, создают новые возможности для разработки специализированных кремниевых процессоров и вертикально оптимизированных системных архитектур. TPU Ironwood призван обеспечить новые возможности для инференса и агентных рабочих нагрузок. TPU Ironwood был представлен в апреле этого года. По данным Google, он обеспечивает десятикратное увеличение пиковой производительности по сравнению с TPU v5p и более чем четырёхкратное увеличение производительности на чип как для обучения, так и для инференса по сравнению с TPU v6e (Trillium), что делает Ironwood самым мощным и энергоэффективным специализированным кристаллом компании на сегодняшний день. Ускорители объединяются в «кубы» — 64 шт. TPU в 3D-торе, объединённых интерконнектом Inter-Chip Interconnect (ICI) со скоростью 9,6 Тбит/с на подключение. Google сообщила, что на базе Ironwood можно создавать кластеры, включающие до 9216 чипов (42,5 Эфлопс в FP8), объединённых ICI с агрегированной скоростью 88,5 Пбит/с с доступом к 1,77 Пбайт общей памяти HBM, преодолевая узкие места для данных даже самых требовательных моделей. Компания отметила, что в таком масштабе сервисы требуют бесперебойной доступности. Её гарантирует технология оптической коммутации (OCS), которая реализуется как динамическая реконфигурируемая инфраструктура. А если клиенту требуется больше мощности, Ironwood масштабируется в кластеры из сотен тысяч TPU. Своим клиентам, пользующимся решениями на TPU, компания предлагает возможности Cluster Director в Google Kubernetes Engine. Это включает в себя расширенные возможности обслуживания и понимания топологии для интеллектуального планирования и создания высокоустойчивых кластеров. Для предобучения и постобучения компания предлагает новые улучшения MaxText, высокопроизводительного фреймворка LLM с открытым исходным кодом, которые упрощают внедрение новейших методов оптимизации обучения и обучения с подкреплением, таких как контролируемая тонкая настройка (SFT) и оптимизация политики генеративного подкрепления (GRPO) — алгоритм обучения с подкреплением (RL). Также улучшена поддержка vLLM, что позволит с минимальными усилиями перенести инференс с GPU на TPU. А GKE Inference Gateway позволит снизить задержку выдачи первого токена (TTFT). Никуда не делась и поддержка JAX с PyTorch.
07.11.2025 [12:16], Владимир Мироненко
Google представила инстансы N4A и C4A Metal на базе фирменных Arm-процессоров AxionGoogle представила новые инстансы на базе фирменных Arm-процессоров Axion: N4A и C4A Metal. N4A — самая экономичная виртуальная машина серии N на сегодняшний день, которая уже доступна в тестовом режиме (Preview Mode). N4A предлагает до двух раз лучшее соотношение цены и производительности, чем сопоставимые виртуальные машины текущего поколения на базе x86. N4A доступен в готовых и настраиваемых конфигурациях: до 64 vCPU, 512 Гбайт DDR5 и сетевым подключением 50 Гбит/с. N4A предлагается в конфигурациях с высокой производительностью процессора (2 Гбайт RAM на vCPU), стандартной (4 Гбайт на vCPU) и с высокой производительностью памяти (8 Гбайт на vCPU). Виртуальные машины N4A поддерживают новейшие решения для хранения данных Hyperdisk, включая Hyperdisk Balanced, Hyperdisk Throughput и Hyperdisk ML (будет доступно позже), обеспечивая до 160 тыс. IOPS и пропускную способность 2,4 Гбайт/с на инстанс. N4A демонстрирует высокие результаты в ряде отраслевых бенчмарков, отражающих ключевые рабочие нагрузки. Например, по сравнению с аналогичными x86-инстансами текущего поколения N4A обеспечивает до 105 % лучшее соотношение цены и производительности для вычислительных нагрузок, до 90 % — для масштабируемых веб-серверов, до 85 % — для Java-приложений и до 20 % — для баз данных общего назначения. N4A доступен в виде превью для Compute Engine, Google Kubernetes Engine (GKE), Dataproc и Batch, а поддержка Dataflow и других сервисов появится в ближайшее время. C4A Metal — первый инстанс Google на базе Arm-архитектуры на bare metal-серверах. Он включает до 96 vCPU, до 768 Гбайт DDR5, сетевое подключение со скоростью до 100 Гбит/с и полную поддержку Google Cloud Hyperdisk, включая варианты хранения Hyperdisk Balanced, Extreme, Throughput и блочный доступ. Этот инстанс оптимизирован для специализированных рабочих нагрузок, таких как гипервизоры и разработка нативных приложений для Arm-архитектуры. Как облачное решение, C4A Metal обеспечивает снижение совокупной стоимости владения (TCO), предлагая предсказуемые эксплуатационные расходы. Компания отметила, что, запуская конвейеры разработки и тестирования на физических экземплярах процессоров Axion с использованием C4A Metal, разработчики Android могут получить выгоду от нативной производительности, устраняя накладные расходы на управление эмуляцией, такие как медленные уровни трансляции инструкций. Кроме того, они могут значительно сократить задержки для инструментов сборки Android и автоматизированных систем тестирования, что приведёт к ускорению циклов обратной связи. C4A Metal также решает проблемы производительности, связанные с вложенной виртуализацией, что делает его отличной платформой для масштабируемых сред Cuttlefish (Cloud Android). После сегодняшнего анонса портфолио инстансов на базе процессоров Axion теперь включает три варианта: N4A, C4A и C4A Metal. Вместе серии C и N позволяют снизить общие расходы на ведение бизнеса без ущерба для производительности или требований к конкретной рабочей нагрузке, отметила компания. «Независимо от того, используете ли вы Ironwood и Axion вместе или комбинируете их с другими вычислительными решениями, доступными на базе AI Hypercomputer, этот системный подход обеспечивает вам максимальную гибкость и производительность для самых требовательных рабочих нагрузок», — заявила Google.
04.11.2025 [08:47], Руслан Авдеев
Юстас — Алексу: Израиль придумал необычный способ уведомления о нежелательном доступе к данным в облаках AWS и Google Cloud
aws
google cloud platform
software
израиль
информационная безопасность
конфиденциальность
мониторинг
облако
утечка
Израильские власти заключили весьма специфические соглашения с облачными провайдерами AWS и Google Cloud — в них предусмотрена система негласных оповещений на случай, если к израильским данным получат правоохранительные органы других стран, сообщает The Guardian со ссылкой на утекшие правительственные документы, посвящённые облачному контракту Project Nimbus стоимостью $1,2 млрд, который был анонсирован в 2021 году. На запрос журналистов Google и Amazon (AWS) ответили категорическим отрицанием наличия подобных положений в договоре, а представители Тель-Авива заявили The Guardian, что подобные «инсинуации» не имеют под собой почвы. Утверждается, что он предусматривал систему негласного и весьма изобретательного оповещения Израиля — предположительно, облачные провайдеры должны отправлять на ассоциированные с Тель-Авивом счета относительно небольшие суммы денег, от ₪1000 ($307) до ₪9999 ($3070), по которым можно определить, власти какой именно страны запрашивали информацию. Платежи должны быть сделаны в течение 24 часов после передачи запрошенной информации. Первые цифры суммы перевода соответствуют телефонному коду страны, запросившей данные. Так, в случае запроса израильских данных американскими властями (код США +1) на специальный счёт отправляется ₪1000, Италии (код +39) — ₪3900 и т.п. Утверждается, что такая система позволяет соблюдать букву американского закона, но весьма гибко обходиться с его духом. Требование предположительно было выдвинуто израильской стороной, поскольку та опасается, что операторов могут принудить к выдаче данных в судебном порядке, причём Израиль даже не будет знать, кто и когда требовал эти данные. СМИ также утверждают, что Google и AWS документально признали право Израиля получать доступ к облачным технологиям, даже если он нарушает правила использования облачных сервисов. Если компании примут решение прекратить их предоставление, их ожидают штрафы и судебное преследование. Сообщается, что это было сделано на случай, если на компании окажут давление акционеры или общественность. Прецеденты уже имеются. Так, внутри Microsoft есть группа активистов, которая призывает отключить Израилю доступ к Azure. Причём некоторых сотрудников даже арестовали за попытки захватить штаб-квартиру Microsoft, а часть активистов уволили. Аналогичным образом поступила и AWS. Тем не менее, в сентябре Microsoft по итогам внутреннего расследования отказалась предоставлять израильским военным доступ к некоторым сервисам Azure.
31.10.2025 [00:24], Владимир Мироненко
Google вынуждена отказывать клиентам из-за нехватки ИИ-ускорителей — разобраны даже TPU прошлых поколенийХолдинг Alphabet, включающий компанию Google, объявил финансовые результаты III квартала 2025 года, которые превзошли прогнозы аналитиков, в том числе благодаря успешной работе облачного подразделения на фоне высокого спроса на ИИ-сервисы. Спрос настолько велик, что у компании нет свободных TPU-ускорителей, а ожидаемые капзатраты до конца года вырастут ещё на $6–$8 млрд. Акционеры должны радоваться — согласно данным Bloomberg, с начала года ценные бумаги Google выросли на 45 %. Выручка Alphabet в минувшем квартале, закончившемся 30 сентября, выросла год к году на 16 %, впервые превысив рубеж в $100 млрд и составив $102,3 млрд. Это выше консенсус-прогноза аналитиков, опрошенных LSEG, равного $99,89 млрд. Холдинг отметил, что рост выручки Google Cloud, поискового бизнеса Google, YouTube от рекламы исчисляется двузначными числами в процентах. Скорректированная прибыль на разводнённую акцию составила $3,10 при прогнозе от LSEG в размере $2,33. Чистая прибыль холдинга выросла на 33 % до $34,98 млрд, прибыль на акцию — на 35 % до $2,87. В сентябре Google была оштрафована антимонопольными органами Европейского союза на $3,45 млрд из-за антиконкурентной практики в рекламном бизнесе, что отразилось на величине чистой прибыли. Выручка облачного подразделения Google Cloud увеличилась год к году на 34 % до $15,16 млрд, превысив прогноз StreetAccount в размере $14,74 млрд, в основном за счёт роста доходов Google Cloud Platform (GCP) по основным продуктам GCP, ИИ-инфраструктуре и решениям для генеративного ИИ. Операционная прибыль от облачных технологий выросла на 85 % до $3,6 млрд, а маржа увеличилась с 17,1 % в III квартале 2024 года до 23,7 % в III квартале 2025 года. Объём невыполненных работ по контрактам Google Cloud увеличился на 46 % по сравнению с предыдущим кварталом до $155 млрд, что, по словам финансового директора Alphabet Анат Ашкенази (Anat Ashkenazi), вызвано высоким спросом на корпоративную ИИ-инфраструктуру, включая чипы, и спросом на ИИ-чат-бот Gemini 2.5. Число ежемесячных пользователей Gemini превысило 650 млн. Генеральный директор Сундар Пичаи (Sundar Pichai) сообщил, что число клиентов облачных сервисов увеличилось почти на 34 % в годовом исчислении, причём более 70 % использует ИИ-продукты. Пичаи отметил, что компания в минувшем квартале заключила больше сделок стоимостью более $1 млрд каждая, чем за предыдущие два года вместе взятые. В том числе речь идёт о крупном контракте с Anthropic, подписанном ранее в этом месяце, и шестилетнем контракте с Meta✴ на сумму более $10 млрд, заключённом в августе. Ашкенази сообщила, что Google снова повышает прогноз капитальных затрат на 2025 год до $91–$93 млрд с предыдущего в размере $85 млрд. Капзатртаты компании в отчётном квартале составили $24 млрд, что больше, чем $22,4 млрд во II квартале и $17,2 млрд в I квартале. По словам Ашкенази, «подавляющее большинство» капитальных затрат ушло на техническую инфраструктуру: около 60 % — на серверы и 40 % — на ЦОД сетевое оборудование, пишет Data Center Dynamics. Ресурс уточнил, что крупные инвестиции в ЦОД, объявленные в этом квартале, включают $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд в Бельгии и по $9 млрд в Южной Каролине, Оклахоме и Вирджинии (США). Согласно прогнозу Ашкенази, напряжённая ситуация с удовлетворением высокого спроса на ИИ-инфраструктуру сохранится в четвёртом квартале и в 2026 году. Пичаи отметил запуск инстансов A4X Max на базе NVIDIA GB300, а также то, что TPU седьмого поколения — Ironwood — скоро станет общедоступным. Ранее, выступая на мероприятии венчурного фонда Andreessen Horowitz (a16z) вице-президент и генеральный директор Google по ИИ и инфраструктуре Амин Вахдат (Amin Vahdat) заявил, что спрос на TPU настолько велик, что компании приходится отказывать клиентам. Даже TPU прошлых поколений, вышедшие семь-восемь лет назад, загружены на 100 %. При этом компания, с одной стороны, готова арендовать у CoreWeave, своего прямого конкурента в области ИИ-облаков, ускорители NVIDIA Blackwell, которые фактически достанутся OpenAI, а с другой — готова, по слухам, предоставить малым облачным провайдерам свои TPU. Говоря о проблемах, с которыми сталкиваются гиперскейлеры, особенно при строительстве ЦОД, Вахдат сообщил, что отрасль в настоящее время ограничена такими факторами, как ограниченные ресурсы электроэнергии, доступность земли, получение разрешений и проблемы с цепочкой поставок. В качестве одной из ответных мер компания пошла на перезапуск АЭС Duane Arnold Energy Center (DAEC).
24.10.2025 [22:50], Владимир Мироненко
ИИ помог Google перенести 30 тыс. внутренних нагрузок на Arm-процессоры Axion, на очереди ещё 70 тыс.Google объявила, что портировала около 30 тыс. внутренних нагрузок на Arm-архитектуру и планирует перенести ещё порядка 70 тыс. Помогает ей в этом ИИ, но пока не слишком успешно. При этом целиком отказываться от x86-процессоров в пользу собственных Arm-чипов Axion компания пока не планирует. YouTube, Gmail и BigQuery уже работают как на системах с x86, так и c Arm. В процессе портирования приходится уделять внимание архитектурным различиям, таким как особенности работы с числами с плавающей запятой, параллелизм, платформенно-зависимые технологии и производительность. Специалисты Google рассказали, что сначала они перенесли некоторые из ключевых задач, такие как F1, Spanner и Bigtable, используя стандартные методы разработки ПО с привлечением инженеров. Оказалось, что современные компиляторы и инструменты, такие как санитайзеры и фаззеры, избавили разработчиков от множества сюрпризов. Большая часть времени по факту ушла на исправление тестов, обновление сложных систем сборки и развёртывания, как правило, для самых старых и самых нагруженных сервисов, устранение проблем с массовым развёртыванием в рабочих средах и принятие мер по предотвращению дестабилизации критически важных систем. 30 тыс. приложений — это достаточно большой объём кода для того, чтобы задуматься об автоматизации задач. Поэтому компания создала новый мультиагентный ИИ-инструмент CogniPort для исправления ошибок сборки и тестирования. Он успешно справлялся с проблемами примерно в 30 % случаев и лучше всего — с исправлениями тестов, платформенно-зависимыми особенностями и особенностями представления данных. Эффективность не впечатляет, но Google предстоит портировать ещё десятки тысяч нагрузок. пакетов. Кроме того, компания внедрила новую систему непрерывного мониторинга и развёртывания мультиархитектурных нагрузок CHAMP (Continuous Health Monitoring Platform), которая автоматически отбрасывает задачи, работа которых на Arm сопровождается проблемами вроде циклических сбоев или недостаточной производительности, для последующих отладки и профилирования. Чем больше будет запущено нагрузок, тем лучше Borg, управляющий кластерами внутри Google, сможет распределять задачи таким образом, чтобы эффективно использовать Arm-серверы. Это позволит сэкономить затраты, поскольку по словам Google, системы на базе Axion обеспечивают на 65 % лучшее соотношение цены и производительности, чем экземпляры на базе x86, а также на 60 % более высокую энергоэффективность. Ранее Google, по неофициальным данным, высказывала недовольство показателем TCO последних поколений Intel Xeon. Возможно, это побудило компанию заняться созданием собственного процессора. Первой на этот путь, тоже ради улучшения TCO, ступила Amazon, которая разработала уже четыре поколения Arm-процессоров Graviton. В прошлом году компания похвасталась, что у неё есть уже 2 млн этих чипов. Alibaba Cloud в 2021 году представила свой первый Arm-процессор Yitian 710. У Microsoft с прошлого года есть собственные Arm-чипы Cobalt 100, на которые также возложена часть внутренних нагрузок. Наконец, Oracle два года назад сообщила о завершении миграции всех своих облачных сервисов на Arm, включая флагманскую СУБД. Oracle использует процессоры компании Ampere Computing, в которой она владела заметной долей до сделки с SoftBank. Все эти процессоры позволили Arm занять четверть рынка серверных CPU, однако решающую роль сыграло внедрение NVIDIA GB200/GB300. Arm также заключила стратегическое соглашение с Meta✴, чтобы помочь последней с оптимизацией ПО.
24.10.2025 [13:15], Руслан Авдеев
1 млн TPU и 1 ГВт: Anthropic расширит использование ИИ-ускорителей и сервисов Google CloudКомпания Anthropic объявила о знаковом расширении использования чипов TPU Google Cloud. Это обеспечит компании доступ к вычислительным ресурсам, необходимым для обучения и обслуживания ИИ-моделей Claude новых поколений. В 2026 году Anthropic рассчитывает получить доступ к мощностям, превышающим 1 ГВт, сообщает пресс-служба Google Cloud. Речь идёт о крупнейшем увеличении использования TPU компанией Anthropic за всё время использования ей тензорных ускорителей Google. Она получит доступ к 1 млн чипов, а также дополнительным сервисам Google Cloud. По оценкам некоторых экспертов, это примерная пятая часть всех TPU Google, но в 2026 году компания намерена развернуть ещё 2,5 млн TPU. Предполагается, что сделка обеспечит R&D-группы Anthropic передовой инфраструктурой, оптимизированной для ИИ-проектов, на годы вперёд. Как сообщают в Google, Anthropic выбрала TPU из-за привлекательного соотношения цены и производительности, а также благодаря имеющемуся опыту обучения и эксплуатации ИИ-моделей именно с помощью TPU. О стратегическом партнёрстве Anthropic и Google Cloud объявили в 2023 году. На сегодняшний день моделями семейства Claude компании Anthropic в Google Cloud активно пользуются тысячи компаний, включая Figma, Palo Alto Networks, Cursor и др. В Anthropic подчеркнули, что с Google компания давно сотрудничает, а последнее расширение поможет и дальше наращивать вычислительные мощности, необходимые для наращивания возможностей ИИ-систем. В числе клиентов — как компании из списка Fortune 500, так и ИИ-стартапы, которые полагаются на Claude. Расширение вычислительных возможностей гарантирует, что компания сможет удовлетворить стремительно растущий спрос, сохраняя актуальность ИИ-продуктов. В Google Cloud отметили, что Anthropic использует TPU уже несколько лет с оптимальным для неё соотношением цены и производительности, в Google продолжают инновации, опираясь на «зрелое» портфолио ИИ-ускорителей, включая TPU седьмого поколения — Ironwood.
10.10.2025 [16:34], Руслан Авдеев
Google вложит €5 млрд в ИИ и облако в БельгииВ следующие два года Google намерена потратить дополнительные €5 млрд ($5,8 млрд) в облачную и ИИ-инфраструктуру Бельгии. Инвестиции пойдут на расширение ЦОД в Сен-Гислене (Saint-Ghislain) и позволят создать ещё 300 постоянных рабочих мест, сообщает Datacenter Dynamics. Дополнительно компания намерена объединить усилия с Eneco, Luminous и Renner для строительства наземных ветряных электростанций. Google намерена укрепить свои позиции в Бельгии, поэтому расширяет инвестиции и создаёт новые возможности для преобразований страны с помощью ИИ. О проекте упомянул и премьер-министр страны Барт де Вевер (Bart Albert Liliane De Wever), заявив, что инвестиции Google — весомый символ доверия к Бельгии как к центру цифровых инноваций и устойчивого развития. По его словам, расширяя передовую облачную и ИИ-инфраструктуру в стране, создавая рабочие места для квалифицированных сотрудников и новые источники безуглеродной энергии, Бельгия укрепляет собственную экономику и ускоряет переход на возобновляемую энергию. Проект имеет для неё и стратегическое значение, позволяя укрепиться в роли лидера в формировании цифрового будущего Европы.
Источник изображения: Google В 2009 году Google впервые открыла дата-центр в Бельгии, там расположен облачный регион компании Europe-west1. Кампус в Сен-Гислене — первый кампус Google в Европе, неоднократно расширявшийся. По состоянию на апрель 2024 года он занимал территорию 90 га, где размещалось пять ЦОД и солнечная электростанция. Также она строит кампус в Фарсьене (Farciennes, провинция Эно), проект стартовал в апреле 2024 года. По информации Google, с 2007 года гиперскейлер уже инвестировал более €5 млрд в инфраструктуру ЦОД в Бельгии. AWS управляет локальной зоной доступности в Брюсселе, но не имеет облачного региона в стране. Microsoft управляет облачным регионом в Бельгии, получившим название belgiumcentral. Впрочем, приоритетными для Google и других компаний остаются США. Только на ИИ и облачную инфраструктуру в Оклахоме Google готова потратить $9 млрд, не считая других проектов.
02.10.2025 [16:54], Руслан Авдеев
Затраты — выше, безопасность — ниже: Google снова посетовала на заградительное лицензирование Microsoft
google
google cloud platform
microsoft
microsoft azure
software
евросоюз
информационная безопасность
конкуренция
лицензия
облако
В Google Cloud рассказали о результатах жалобы в Еврокомиссию, поданной в связи с неконкурентными практиками лицензирования облачных сервисов компанией Microsoft. В частности, речь шла о введении денежных штрафов для компаний, использующих Windows Server на облачных платформах конкурентов Azure, сообщается в блоге Google. В компании утверждают, что Microsoft не испугало внимание со стороны регуляторов — компания намерена сохранить «заградительное лицензирование» для большинства облачных клиентов, а ситуация в целом становится только хуже. Недавно Microsoft заявила, что усилия по стимуляции клиентов к переходу в Azure «далеки от завершения» и это — один из трёх «столпов», стимулирующих рост бизнеса. Теперь Microsoft вносит новые изменения в лицензионную политику, чтобы переманить в своё облако больше клиентов, в том числе запрещая поставщикам управляемых услуг размещать некоторые рабочие нагрузки на платформах альтернативных облачных провайдеров. Это не осталось без внимания регуляторов. Так, в рамках комплексного расследования Управление по конкуренции и рынкам Великобритании (CMA) установило, что подобное лицензирование вредит пользователям облаков, мешает конкуренции, тормозит экономический рост и инновации. За поведением Microsoft, как утверждают в Google, следят всё больше регуляторов по всему миру. Отмена заградительных мер может способствовать ускорению роста экономики по всему миру. Microsoft всё ещё применяет наценку в 400 % для клиентов, решающих перенести старые рабочие нагрузки в облака конкурентов. В результате клиенты вынуждены пользоваться Azure, если хотят использовать ПО Microsoft — иначе переход будет слишком дорогим. По информации CMA, повышение цен на облачные услуги на 5 % из-за отсутствия конкуренции обходится британским компаниям в £500 млн/год. Исследование в Евросоюзе показало, что «заградительное лицензирование» обходится местным компаниям в €1 млрд/год, а в США отсутствие сильной конкуренции из-за лицензионной практики Microsoft ведёт к перерасходу средств госучреждениями на $750 млн/год.
Источник изображения: Michał Mancewicz/unsplash.com Страдают и кибербезопасность и надёжность сервисов, поскольку Microsoft фактически вынуждает клиентов работать в небезопасной единой экосистеме, в которой атаки на небезопасное ПО Microsoft распространяются даже на государственные учреждения и критически важные отрасли. А в условиях массового внедрения ИИ прекращение неконкурентной политики Microsoft является чрезвычайно важным, поскольку клиентам для доступа к ИИ в значимых масштабах приходится переходить в облака и именно клиенты должны решать, о чьих облаках идёт речь. В CMA утверждают, что с момента ужесточения условий лицензирования в последние годы облако Azure привлекало клиентов вдвое-втрое быстрее, чем конкуренты, главным образом из-за ограниченности выбора, влияющего на конкурентоспособность Европы в целом. Согласно недавним европейским исследованиям, отмена «запретительного лицензирования» может помочь ЕС высвободить €1,2 трлн дополнительного ВВП к 2030 году и обеспечить в год €450 млрд на экономии бюджетных средств и повышении производительности. Спустя год после жалобы в Еврокомиссию позиция Google остаётся прежней — ограничительное лицензирование в сфере облачных технологий вредит бизнесу и подрывает его конкурентоспособность. Для обеспечения инноваций и роста регуляторы должны положить конец антиконкурентной практике уже сейчас. Ранее сообщалось, что Google предлагала деньги европейским облачным бизнесам, входящим в ассоциацию CISPE и имевшим претензии к Microsoft, чтобы те не отзывали жалобы. Тем не менее, результатов добиться не удалось, а мелкий бизнес из Евросоюза не пошёл на конфронтацию с Microsoft, оставив в одиночестве AWS и Google Cloud. Попытки создать альтернативные решения Microsoft тоже «провалила».
30.09.2025 [23:25], Владимир Мироненко
С 1 ноября клиентов гиперскейлеров вынудят покупать лицензии на VMware напрямую у Broadcom
aws
broadcom
google cloud platform
microsoft azure
software
vmware
виртуализация
гиперскейлер
лицензия
облако
В связи с отменой Broadcom бессрочных лицензий VMware и переходом на модель подписки BYOS (Bring Your Own Subscription, «принеси свою собственную подписку»), обеспечивающую переносимость лицензии на проверенные VMware решения на базе VMware Cloud Foundation (VCF), клиенты крупнейших облачных провайдеров должны с 1 ноября покупать подписки на VCF напрямую у неё, без посредников. Об изменениях отношений с гиперскейлерами Broadcom объявила в самом конце августа. Google Cloud Platform анонсировала изменения в работе сервиса Google Cloud VMware Engine (GCVE) от Google Cloud Platform (GCP), который позволяет запускать рабочие нагрузки на основе VMware в инфраструктуре Google Cloud, однако через несколько часов удалила запись. Тем не менее, копия сообщения прямо говорит, что теперь клиентам придётся обращаться за лицензиями и разрешением на их использование в GCP к Broadcom. Google первой среди гиперскейлеров предложила клиентам опцию Bring Your Own License (BYOL) для сред VMware в начале 2024 года. Согласно договорённости Google и Broadcom, пользователи GCP получат следующие возможности:
Для всех остальных заказчиков с 1 ноября 2025 года для развёртывания GCVE потребуется лицензия, купленная у Broadcom. Основные возможности VMware Engine для клиентов GCP останутся прежними. GCVE останется управляемой службой Google, которая предоставляет выделенную среду VMware Cloud Foundation, работающую непосредственно на инфраструктуре Google Cloud. Microsoft сообщила, что решение Azure VMware Solution (AVS) готово к изменениям в политике Broadcom. Вариант Azure VMware Solution VCF BYOL доступен во всех 35 регионах по всему миру. Цена варианта BYOL будет меньше, чем AVS с пакетной подпиской VCF. Microsoft прекратит продажу Azure VMware Solution с комплектной подпиской на VCF после 15 октября 2025 года. После этой даты для покупки новых узлов Azure VMware Solution потребуется подписка на VCF, приобретенная непосредственно у Broadcom. Узлы Azure VMware Solution с опцией PayGo смогут работать без дополнительных лицензий и изменений в продукте до 31 октября 2026 года. Клиенты могут перейти с AVS PayGo, приобретя до 15 октября 2025 года зарезервированные инстансы Azure VMware Solution с уже включённой подпиской VCF. AWS же в начала августа 2025 года, т.е. до публичного объявления Broadcom о смене политики лицензирования для клиентов гиперскейлеров, сообщила об общедоступности сервиса Amazon Elastic VMware Service (Amazon EVS), который позволяет запускать среды VCF в виртуальном частном облаке Amazon VPC и интегрировать их с другими сервисами AWS. При этом лицензии так же придётся покупать у Broadcom, причём минимум на 256 ядер. Нюанс в том, что EVS пока поддерживает только VCF версии 5.2.1 и только на узлах i4i.metal на базе Intel Xeon Ice Lake-SP.
08.09.2025 [13:27], Руслан Авдеев
Gemini стал доступен в частных облаках Google Distributed Cloud
gemini
google cloud platform
hardware
ии
информационная безопасность
конфиденциальность
облако
частное облако
Компания Google анонсировала общую доступность ИИ-моделей Gemini в облаках Google Distributed Cloud (GDC), предназначенных для развёртывания на мощностях самих клиентов. В частности, генеративный ИИ будет доступен в частных корпоративных и правительственных платформах, сообщает Network World. GDC является вариантом облака Google Cloud, предназначенным для жёстко регулируемых отраслей вроде здравоохранения или финансовых сервисов. Фактически такие облака скрываются на мощностях клиентов, прячась от внешнего мира за защитными системами компаний. Запуск Gemini в GDC позволяет организациям, обязанным соблюдать жёсткие требования к размещению данных и соответствовать ряду правил по некоторым другим параметрам, внедрять системы генеративного ИИ, не теряя контроля над конфиденциальной информацией. GDC строятся на ускорителях семейств NVIDIA Hopper и Blackwell с автоматизированным распределением нагрузки, без необходимости дополнительных вмешательств для обновления ПО. В системе реализованы функции безопасности вроде аудита и контроля доступа, обеспечивающие клиентам максимальную прозрачность. Платформа также поддерживает функцию «конфиденциальных вычислений» Confidential Computing как для CPU (с Intel TDX), так и ИИ-ускорителями (с применением технологий NVIDIA) для защиты конфиденциальных данных и предотвращения их подделки и утечки. Модели Gemini обеспечивают обработку контента и мультимодальное понимание текста, изображений, аудио и видео. В Google заявляют, что это открывает множество возможных способов применения, включая многоязыковое, в том числе международное сотрудничество, автоматизированное составлении резюме документов и др., поддерживаются чат-боты и генерация кода с помощью искусственного интеллекта.
Источник изображения: Google Для работы Gemini требуется сертифицированное Google оборудование. Среди такового пока есть только одна модификация HGX H200 на базе Dell XE9680. |
|

